MESURE - Méthodologie

MESURE - Méthodologie
MESURE - Méthodologie

L’expérimentation fournit à la recherche scientifique et au contrôle industriel un appui particulièrement efficace. Sa mise en œuvre rationnelle ouvre la voie à la description quantitative des phénomènes, à la vérification de certains postulats et d’hypothèses ainsi qu’à la consolidation des bases d’un grand nombre de théories. Elle permet, en outre, de déceler la dépendance entre deux grandeurs et d’établir bien souvent une relation fonctionnelle entre elles.

La réussite d’une expérimentation implique une bonne connaissance du matériel, une certaine aptitude à bâtir un plan de travail et une habitude du dépouillement et de l’interprétation des mesures; on donne ici un aperçu de la théorie de l’expérimentation, de la terminologie usuelle et des pièges à éviter. Bien des exemples sont choisis dans le domaine de l’instrumentation électrique, celui-ci bénéficiant, en effet, de normes particulièrement élaborées et faciles à étendre à d’autres domaines qui en sont tributaires pour la plupart des méthodes de mesure.

1. Expérimentation

L’expérimentation consiste en la recherche quantitative des grandeurs physiques mises en jeu par un phénomène, ce qui revient à les situer dans une échelle conventionnelle. Une distance peut être exprimée par comparaison à l’étalon mètre, une puissance par rapport au watt.

Toutes les mesures ne comportent pas nécessairement une comparaison à un étalon. Un dénombrement d’objets ou de phénomènes peut constituer une mesure. Le comptage des vis dans une boîte ne nécessite pas d’étalon. En revanche, l’évaluation du rendement d’un tour automatique destiné à usiner des vis fait intervenir l’unité de temps (débit horaire ou journalier).

Une bonne mesure implique une définition claire de la grandeur cherchée. Ainsi, un nombre indiquant la masse volumique d’un gaz n’a de sens que si la composition de ce dernier est connue. De plus, le renseignement doit être assorti de la valeur de la température et de la pression. De la sorte se profilent les facteurs dits d’influence, c’est-à-dire les grandeurs extérieures susceptibles d’influencer la grandeur inconnue. Une caractéristique de matériau (capacité thermique massique, perméabilité magnétique, etc.) est essentiellement fonction de la composition chimique et de toutes les grandeurs physiques ambiantes ayant une action quelconque: température, pression, degré d’humidité atmosphérique, disposition des objets environnants, y compris l’opérateur et les champs extérieurs.

L’expérimentateur a pour rôle de définir d’abord la grandeur cherchée et d’établir en conséquence la nomenclature des grandeurs d’influence, appelées souvent parasites.

2. Erreurs de mesure

Définition

L’erreur renseignant l’expérimentateur sur la confiance qu’il peut accorder à ses essais caractérise la qualité d’une mesure. La différence entre la valeur expérimentale x et la valeur vraie x est l’erreur absolue:

Suivant que x est inférieure ou supérieure à x , l’erreur est par défaut ou par excès. Le fait que x est, en principe, différente de x provient de ce que:

– le matériel employé est d’une justesse insuffisante;

– l’expérimentateur n’exécute pas les opérations avec la perfection souhaitable (mis à part les mesures automatiques);

– les mesures sont troublées par divers facteurs; soit de façon systématique: température, humidité; soit de façon aléatoire: vibrations, chocs;

– à la grandeur à mesurer s’incorporent, de façon systématique ou fortuite, d’autres grandeurs désignées sous le nom de «bruits»: par exemple, les parasites atmosphériques dans les télécommunications spatiales, ou les courants parasites dans une installation de télémesure, voire les perturbations dues à la présence d’un balourd dans un système tournant.

Le calcul exact de l’erreur est impossible, ne serait-ce que par suite du fait que l’influence de certains facteurs est difficile à chiffrer et que la connaissance des caractéristiques du matériel souffre toujours d’une incertitude. L’inconnue est, en principe, tirée d’une relation idéalisée entre les grandeurs impliquées.

L’erreur absolue , à elle seule, ne caractérise pas la qualité d’une mesure. Il est indiscutablement plus difficile de mesurer une distance de cent mètres à un centimètre près qu’à un mètre près, ce qui incite logiquement à comparer l’erreur absolue à la grandeur mesurée en introduisant la notion d’erreur relative :

qu’on exprime souvent en pourcentage. Ainsi:

Dans l’exemple cité, les erreurs relatives sont:

Classification

On distingue les erreurs systématiques, accidentelles ou fortuites, les erreurs personnelles et les erreurs de lecture.

Les erreurs systématiques restent sensiblement les mêmes lorsqu’on opère dans des conditions identiques. Une montre qui avance indique l’heure avec une erreur systématique. Il en est de même du compteur de vitesse – généralement optimiste – d’une voiture.

Les erreurs accidentelles ou fortuites , toujours présentes, sont dues souvent à des causes difficiles à connaître: vibrations, courants d’air, variations de température passagères, défauts d’isolement intermittents, mauvais contacts dont la résistance électrique est une fonction capricieuse du courant et du temps, évolution de caractéristiques d’appareils en cours d’expérimentation (échauffement, déformation de pièces), interaction d’appareils dépendant de leur disposition relative, instabilité des sources d’alimentation.

Certaines causes d’erreurs fortuites s’éliminent par une conception judicieuse du montage. Dans le domaine de l’électricité, il en est ainsi des mauvais contacts, des instabilités de source, des couplages parasites. Cependant, les erreurs à caractère aléatoire ne peuvent être combattues que par une répétition des mesures avec calculs de moyennes justifiés par des considérations statistiques. Il est entendu que ces erreurs sont régies par des lois connues, de préférence les lois classiques du hasard.

Les erreurs personnelles sont imputables à toutes les imperfections, tant physiques qu’intellectuelles, de l’opérateur. La formation expérimentale de celui-ci, son esprit d’analyse, son bon sens et – pourquoi ne pas le dire – son honnêteté constituent des atouts majeurs chaque fois que le processus de mesure n’est pas automatisé. Certaines erreurs personnelles s’éliminent par la répétition des observations, par exemple les erreurs de lecture sur le cadran d’un appareil indicateur.

Les erreurs de lecture interviennent lorsque l’indication de l’instrument est analogique. Dans le cas d’un voltmètre, la déviation de l’équipage, repérée par la position de l’aiguille, est l’analogue de la tension à mesurer. L’opérateur lit la position de l’aiguille, qui s’insère habituellement entre deux divisions (se rappeler la lecture de la position de l’aiguille d’une montre indiquant les minutes). Le constructeur améliore souvent les conditions de lecture par un miroir de parallaxe ou une loupe, et une aiguille (parfois en quartz) extrêmement fine dite «couteau». L’indication numérique élimine l’erreur de lecture: position de boutons repérée par des numéros, cadran à chiffres lumineux n’exigeant pas une lecture dans l’axe de symétrie.

3. Instruments de mesure à lecture directe

Caractéristiques métrologiques les plus importantes

La terminologie adoptée pour des instruments de mesure à lecture directe est valable pour une utilisation dans un environnement prescrit par des normes: position, température, pression, etc., dont l’expérimentateur doit être au courant.

Considérons un voltmètre dont la déviation y dépend de la tension v appliquée à ses bornes. Si l’appareil ne perturbe pas le circuit où il est branché, sa consommation est négligeable, et l’on dit qu’il possède de la finesse . L’appareil est dit d’autant plus sensible que la variation de y est plus forte pour une variation donnée de v. Aussi caractérise-t-on la sensibilité par le quotient différentiel:

L’équipage est d’autant plus mobile que la variation v à laquelle il réagit est plus faible. Le branchement répété de la même tension v conduit à des déviations y 1, y 2, y 3, ... légèrement différentes, dont la moyenne arithmétique y m donne la meilleure approximation de l’indication.

La moyenne des valeurs absolues des écarts y 1y m , y 2 y m , ... caractérise l’erreur de fidélité.

Si l’on donne à v des valeurs 1, 2, 3, 4, ..., la déviation prendra les valeurs y 1, y 2, ... Quand on fait décroître ensuite les valeurs de v, les valeurs de y ne coïncident pas nécessairement avec celles trouvées lors de la montée. Les écarts peuvent être faibles et même négligeables, mais il faut envisager leur existence. On dit que l’appareil présente de l’hystérésis.

La déviation y peut évoluer en fonction du temps lorsqu’on maintient v fixe. L’erreur de traînage est alors imputable aux imperfections mécaniques des ressorts antagonistes et quelquefois à l’échauffement. Dans les appareils électroniques, des effets de dérive thermique peuvent accentuer le phénomène. En ce qui concerne les galvanomètres et les appareils à aiguille, la déviation augmente avec le temps. La suppression de la tension v ne ramène l’index au zéro qu’au bout d’un certain temps, de l’ordre de quelques minutes en moyenne. Il y a une déviation résiduelle.

Le pouvoir de résolution est la plus faible variation de v que l’instrument soit capable de mettre en évidence.

On appelle, conventionnellement, temps de réponse à p pour cent le temps qui s’écoule après l’application de la grandeur à mesurer v jusqu’à ce que la déviation y ne diffère de la déviation permanente y 0 que de p pour cent de cette dernière.

Il faut éviter de confondre justesse et précision. Un instrument est juste s’il indique exactement la grandeur à mesurer v. L’écart entre l’indication v et la valeur v s’appelle erreur de justesse (en anglais, accuracy ).

Ne serait-ce qu’à cause de l’erreur de fidélité ou d’hystérésis (erreur de prise de point), les indications sont légèrement dispersées. L’appareil est d’autant plus juste que la moyenne des indications est plus proche de la valeur exacte. Par contre, un appareil est dit précis lorsque la mesure répétée d’une grandeur conduit à des valeurs très voisines, même si elles sont éloignées de la valeur exacte.

Lors d’essais répétés, un instrument donnant les indications suivantes: 3,40; 3,52; 3,58; 3,46; 3,42; 3,48 (moyenne 3,477) pour une valeur réelle de l’inconnue égale à 3,46 est plus juste qu’un autre dont les indications sont: 3,51; 3,515; 3,52; 3,513; 3,53; 3,528 (moyenne 3,519). En revanche, ce dernier instrument est plus précis car la dispersion des indications est plus faible, et un réétalonnage peut lui permettre d’être plus «performant», d’où le qualificatif de «précis» impliquant des indications groupées.

La remarque précédente nous conduit logiquement à la courbe de correction qui donne, en fonction de la lecture, la quantité à ajouter pour obtenir la valeur exacte avec une approximation conventionnelle. La courbe d’étalonnage indique les valeurs vraies en fonction des valeurs lues sous réserve d’une certaine approximation.

Notion de classe de précision

En raison de la complexité des causes affectant l’erreur d’indication, on facilite conventionnellement la tâche de l’utilisateur en lui indiquant une valeur limite de l’erreur dite erreur de classe. La classe indique l’erreur en pourcentage d’une valeur conventionnelle qui est le plus grand nombre de la graduation lorsque celle-ci commence soit à zéro, soit à une valeur positive; ou l’étendue de la graduation lorsque celle-ci s’étale de part et d’autre du zéro.

Pour un appareil de classe 0,5 gradué de 0 à 100, l’erreur limite est de 0,5 division, quelle que soit la déviation. Si la graduation s’étend de 漣 20 à + 50, c’est l’étendue 50 漣 (face=F0019 漣 20) = 70 qu’on fait entrer en ligne de compte. Par contre, pour un fréquencemètre gradué de 40 à 60 Hz, on retient la valeur 60.

La définition de la classe est assortie d’un cahier des charges concernant les facteurs d’influence: position, température, champs extérieurs, durée de mise sous tension, etc. Aussi, en courant alternatif, impose-t-on par exemple une forme d’onde sinusoïdale ou encore une gamme de fréquences déterminée.

4. Méthodes de mesure les plus usuelles

La méthode de déviation fait appel à un équipage mobile actionné par la grandeur à mesurer. La mesure du type analogique par excellence revient à repérer la position d’un index quelconque solidaire de l’équipage.

La méthode de comparaison ou de substitution est destinée à constater l’égalité de deux grandeurs appliquées successivement à l’appareil de mesure. On gagne en précision, cependant on n’élimine pas l’erreur de prise de point, ce qui signifie qu’une même grandeur constante agissant sur l’appareil de façon répétée ne produit pas rigoureusement la même déviation.

La méthode de zéro ou d’opposition consiste à annuler l’effet de la grandeur x à mesurer par une autre y de même nature facilement réglable et connue avec une bonne approximation. L’écart e = xy est décelé par un appareil dit de zéro dont l’étendue de mesure est nettement inférieure à la grandeur à mesurer. La première méthode de zéro était la pesée d’une masse au moyen d’une balance. L’écart des masses, inconnue et étalon, est indiqué par une aiguille qu’on cherche à ramener au zéro en ajoutant ou en enlevant des masses connues. Si à la masse inconnue on substitue des masses étalonnées pour rétablir l’équilibre, on emploie une méthode dite de double pesée dont la précision est pratiquement celle de l’étalon.

Soit à mesurer une tension continue v0 de 4 V environ par comparaison à une tension v réglable connue à 0,01 p. 100 (fig. 1). L’appareil de zéro, en l’occurrence un galvanomètre G ou un microvoltmètre, subit l’écart des tensions. On agit sur la tension réglable v de façon à ramener l’indication de l’instrument vers le zéro, à un microvolt près. L’erreur de mesure est alors sensiblement égale à 0,01 p. 100, puisque le microvolt n’est même pas la millionième partie de la tension à mesurer.

La méthode de déviation en régime transitoire est moins précise que toutes les autres en raison du fait que la lecture porte sur un index mobile. On peut citer le cas de la mesure d’une quantité d’électricité q dont le passage est très bref: décharge d’un condensateur électrique à travers un galvanomètre qui porte alors le nom de balistique. La décharge joue le rôle d’un véritable choc, tout comme une percussion mécanique actionnant un système pendulaire. L’élongation du spot caractérise la quantité d’électricité à mesurer.

La méthode d’extrapolation peut être mise en évidence en considérant un capteur de température tel qu’un thermocouple fournissant une tension électrique, destiné à la mesure des températures n’excédant pas 500 0C. Au-delà, on risque la destruction de celui-ci. Il est possible de mesurer des températures plus élevées à condition de connaître la loi d’échauffement du capteur en fonction du temps. On introduit ainsi ce dernier dans l’enceinte à la température supérieure à 500 0C, et l’on effectue un pointé au bout d’un temps compatible avec la conservation de l’élément qui est aussitôt retiré. On peut également procéder à un enregistrement de la tension aux bornes. La rapidité de l’élévation de température caractérise la température de l’enceinte.

Les grandeurs évolutives ne se prêtent guère à l’étude par les méthodes précédemment énumérées. Elles posent d’autant plus de problèmes que leur variation en fonction du temps est plus rapide. Leur exploration se fait en régime dynamique, et les méthodes à mettre en œuvre doivent utiliser des dispositifs à temps de réaction suffisamment rapide. Dans la négative il y a traînage donc erreur de mesure.

La méthode d’enregistrement fait appel à un système scripteur à même d’inscrire sous une forme appropriée la courbe, ou un tableau de chiffres représentant à une certaine échelle la grandeur variable en fonction du temps. Pour une grandeur électrique, l’utilisation se fait directement. Pour une grandeur non électrique, on fait appel à un capteur (appelé aussi transducteur ou quelquefois senseur) susceptible de délivrer l’inconnue sous forme de tension ou de courant électrique. L’enregistrement, décrit plus en détail plus loin, peut être graphique, optique, magnétique...

La méthode d’échantillonnage consiste en une scrutation régulière, quelquefois aléatoire, dite aussi «stochastique», de la grandeur physique préalablement transformée en tension électrique. Cette scrutation se fait au moyen d’un commutateur électronique mettant en communication la source de signal avec un circuit électronique susceptible d’une utilisation immédiate ou simplement d’une mise en mémoire. On dispose ainsi du signal à des instants divers (fig. 2). Les valeurs ainsi disponibles permettent, grâce à un organe de calcul, d’effectuer des calculs de moyennes, d’écarts, etc., et même des transformées de Fourier. La mesure devient alors un véritable traitement de signal . Si la durée du traitement est très courte, on peut parler d’étude en temps réel , c’est-à-dire au fur et à mesure du déroulement des phénomènes.

La prise d’échantillon étant de très courte durée, l’énergie prélevée est en principe insuffisante pour actionner une chaîne de mesure. Grâce à un dispositif électronique approprié, on arrive à faire durer le signal (voir traits en pointillé fig. 2) d’où un gain substantiel d’énergie. L’opération, qui s’appelle blocage , transforme la grandeur x (t ) en une autre en marches d’escalier, épousant très sensiblement la forme de la première.

Les méthodes dites absolues ne sont pratiquées que dans les laboratoires de haute précision. On exprime la grandeur cherchée en fonction des grandeurs fondamentales: masse, temps, dimensions géométriques. Pour la mesure d’un courant i , on a ainsi utilisé deux bobines plates parallèles, l’une fixe, l’autre mobile; ces bobines, parcourues par le courant, s’attirent. Si la bobine mobile joue le rôle du plateau d’une balance, on peut équilibrer la force d’attraction par des masses disposées dans l’autre plateau. Cette force calculable en fonction du courant, des dimensions des bobines, des nombres de spires et de leur position relative peut donc être compensée par une autre due à la pesanteur. C’est le principe de la balance dite de Kelvin.

5. Exploitation des mesures entachées d’erreurs fortuites

L’exploitation des mesures entachées d’erreurs fortuites est le problème posé par des séries importantes d’observations portant sur une grandeur x , compte tenu du fait que les erreurs systématiques supposées connues ont été éliminées. Il ne reste donc que des erreurs qu’on peut qualifier d’accidentelles, ou aléatoires, présentant une dispersion régie par les lois du hasard, et sur lesquelles on ne fait pour le moment aucune hypothèse.

Pour le dépouillement des résultats, il faudra donc trouver la loi de probabilité ainsi que la méthode permettant de chiffrer l’erreur probable. Un exemple classique fort connu est concrétisé par la dispersion des points d’impact des balles autour d’une cible ponctuelle. Les balles qui font mouche sont aussi rares que celles qui arrivent trop loin de la cible. On dit que les très petits écarts comme les très grands sont peu probables.

Le problème des erreurs aléatoires est similaire. Une erreur nulle est peu probable, comme d’ailleurs une erreur trop forte. Ces erreurs sont tantôt négatives, tantôt positives, et encadrent la valeur zéro. La qualité des mesures sera caractérisée par une moyenne convenablement dosée des écarts.

L’expérience et des considérations théoriques montrent que si x 1, x 2, x 3, ..., x n sont les résultats d’un nombre important n d’observations (quelques dizaines au moins) portant sur une grandeur aléatoire x , ici erreur fortuite, la probabilité pour qu’un résultat soit compris entre x et x + dx est de la forme:

m étant la moyenne arithmétique considérée comme valeur probable de la grandeur cherchée:

La loi de Laplace-Gauss, qu’on appelle à tort ou à raison normale , prévoit une répartition symétrique des écarts x km autour de la valeur moyenne m , ce qui se traduit également par:

On calcule la valeur moyenne du module de l’écart , son carré moyen 靖2 ainsi que l’écart médian 0,6745 靖 qu’on a autant de chance de dépasser que de ne pas dépasser (fig. 3).

靖 porte le nom d’écart type , et son inverse caractérise la précision.

Pour une série peu importante, la dispersion est assez discontinue. On définit le carré moyen des écarts appelé la variance :

V se confond avec l’écart type pour un grand nombre d’essais. Une correction due à Bessel conduit à une valeur plus probable de l’écart type:

L’erreur quadratique probable (racine carrée de la moyenne des carrés des écarts), sur la moyenne arithmétique, est:

En d’autres termes, pour une série de cent mesures, elle est environ 連100, soit dix fois plus faible que pour une mesure unique.

Pour une série importante, la probabilité pour que l’écart 﨎 = xm soit compris entre 漣 E et + E est donnée par la fonction d’erreur:

avec:

La probabilité d’un certain écart p de dépassement ainsi que la probabilité de confiance 1 漣 p sont données ci-dessous pour quelques valeurs simples de l’écart:

Si l’on s’impose un écart probable de 3 靖, il n’y a qu’une chance sur 400 pour que l’erreur lui soit supérieure. On s’entoure ainsi d’une marge de sécurité.

L’écart 﨎 a une probabilité caractérisée par l’exponentielle exp(face=F0019 漣 﨎2/2 靖2). De même, dans le cas de deux expériences successives, la probabilité des écarts 﨎1 et 﨎2 supposés indépendants (loi élémentaire des probabilités dites composées) est le produit des probabilités où apparaît en exposant la somme 漣 ( 﨎21 + 﨎22). Le couple ( 﨎1, 﨎2) est d’autant plus probable que l’exponentielle a une valeur plus forte, d’où 﨎21 + 﨎22 aussi faible que possible. Dans le cas d’une série 﨎1, 﨎2, 﨎3, ..., la somme des carrés des écarts est minimale, ce qui définit la méthode des moindres carrés dans le cadre de la loi de Laplace-Gauss.

Exemples

a ) Soit une série d’observations qui conduit aux valeurs x 1 = 3,67, x 2 = 3,58, ... 3,60... 3,59... 3,69... 3,70. La valeur la plus probable m doit rendre minimale la somme:

L’annulation de la dérivée par rapport à m permet de retrouver la valeur moyenne:

b ) La loi reliant y à x est supposée linéaire: y = kx. Une série de mesures de même qualité fournit des couples de valeurs (x 1, y 1); (x 2, y 2); ... En raison de la dispersion, suivant le couple de valeurs choisi, on trouve des k différents. Pour une répartition gaussienne, on cherchera le minimum de:

par rapport à k .

L’annulation de la dérivée donne:

On généralise à une relation y = f (x ) pour obtenir la courbe la plus probable déterminée par les points expérimentaux.

Dans la pratique, on groupe les résultats par valeurs croissantes. On calcule la moyenne m . On construit une courbe appelée histogramme (fig. 4) en divisant la gamme des valeurs en tranches de largeur h et en portant, dans chaque tranche limitée par les abscisses x k et x k + h , le nombre de valeurs expérimentales correspondantes (fig. 3) appelé aussi fréquence .

La courbe paraît d’autant plus continue que le nombre de mesures est plus grand. Si son contour moyen coïncide sensiblement avec la courbe théorique de Gauss (courbe en cloche) définie par l’exponentielle déjà rencontrée exp[ 漣 (xm )2/2 靖2], la répartition est normale. Pour qu’il en soit ainsi, la courbe ne doit présenter qu’un maximum correspondant sensiblement à m qui doit définir l’axe de symétrie. De plus, après avoir calculé l’écart type 靖, comme il a été expliqué, on vérifie qu’il y a à peu près autant d’écarts en valeur absolue supérieurs à 0,674 靖, environ (2/3) 靖, que d’écarts inférieurs. On peut dire aussi que la moitié de la population est comprise dans l’intervalle [ 漣 0,674 靖, + 0,674 靖] autour du maximum correspondant à la valeur moyenne.

Afin d’éviter les difficultés consistant à subdiviser la série en intervalles dont la largeur n’est pas toujours commode à choisir, on porte souvent en abscisse la grandeur x , et en ordonnées la fraction de la population inférieure à x (exprimée en pourcentage); d’où une courbe en S (fig. 5), appelée courbe des fréquences cumulées .

Comme la moyenne m divise l’ensemble en deux fractions égales, l’ordonnée correspondante sera 0,5 ou 50 p. 100. Par un choix convenable de l’échelle des ordonnées, on peut transformer en droite la courbe des fréquences cumulées. On en profite pour établir si la distribution suit effectivement la loi de Laplace-Gauss puisque les observations doivent conduire à une droite, dite de Henry, et la moindre déformation est facile à mettre en évidence.

Si la distribution est normale, on peut évaluer l’erreur maximale probable à 3 靖 puisqu’il n’y a qu’une chance sur quatre cents pour que cette valeur soit dépassée.

Des appareils numériques appelés analyseurs statistiques permettent d’effectuer toutes les opérations que nous venons de passer en revue. Les résultats peuvent être imprimés ou visualisés sur écran. Ce dernier se prête à l’observation des courbes caractéristiques d’un ensemble de données expérimentales et en premier lieu de la courbe de distribution. Ainsi peut-on vérifier la dispersion des caractéristiques d’une fabrication en série de pièces. La plupart des calculettes programmables à affichage graphique se prêtent également à ce type d’analyse.

6. Calcul d’une limite des erreurs de mesure

La mesure d’une grandeur x fait appel habituellement à des grandeurs auxiliaires a , b , c , ..., dont certaines sont fixes et d’autres réglables. Par ailleurs, les opérations se déroulent sous l’effet des facteurs d’influence A, B, C, ...

La différentiation de la relation x = f (a , b , c , ..., A, B, C, ...) définissant la grandeur à mesurer conduit à la formule:

si les différences sont très petites. C’est l’expression de l’erreur absolue permettant de passer à l’erreur relative:

où l’on a fait apparaître l’erreur relative affectant chaque grandeur. L’erreur possible s’obtient en prenant la valeur absolue de chaque terme, d’où une valeur limite, et non une valeur réelle et encore moins «probable».

Par exemple, la mesure au pont d’une résistance x en courant continu nécessite deux résistances fixes a , b et une résistance réglable R. On dispose de la relation d’équilibre:

donc:

La résistance R comporte une erreur de réglage, soit, pour fixer les idées, 0,02 p. 100. Si les éléments résistants sont garantis par le constructeur à 0,1 p. 100 près, l’erreur possible sur x sera:

Quant à l’incidence des facteurs d’influence, seule l’expérience peut fournir des ordres de grandeur valables.

Dans le cas particulier où l’influence des grandeurs perturbatrices supposées indépendantes est chiffrée, l’erreur globale due à celles-ci n’est pas égale à la somme arithmétique des erreurs, valeur trop pessimiste, mais à la racine carrée de la somme de leurs carrés.

Exemple: lors de la mesure d’une grandeur x , on admet les erreurs perturbatrices suivantes: température 2 p. 100, humidité 1 p. 100, champs extérieurs 1,5 p. 100, trépidations 0,8 p. 100. L’erreur globale n’est pas:

mais:

Remarque importante: lorsque la chaîne de mesure est partiellement ou entièrement automatisée, éventuellement informatisée (ex.: transformateur de Fourier, corrélateur, traitement de signal de toutes sortes en temps réel, etc.), l’expérimentateur se voit dans l’obligation de faire confiance aux données du constructeur, et devrait être à même de chiffrer l’erreur de mesure compte tenu des performances des instruments mis en œuvre.

Encyclopédie Universelle. 2012.

Игры ⚽ Нужно решить контрольную?

Regardez d'autres dictionnaires:

  • MESURE - Mesures électriques et électroniques — Les mesures électriques et électroniques, grâce à l’apport des semiconducteurs, des méthodes numériques et des systèmes asservis, apparaissent à l’heure actuelle comme une technique clé dans le domaine des mesures en général. L’existence de… …   Encyclopédie Universelle

  • Méthodologie scientifique — Méthode scientifique Pour les articles homonymes, voir Méthode. La Science et les Sciences Généralités Connaissance · Théorie · Savoir Classification des sciences …   Wikipédia en Français

  • Histoire & Mesure — Histoire Mesure  Histoire Mesure {{{nomorigine}}} Pays …   Wikipédia en Français

  • Histoire & mesure — Histoire Mesure  Histoire Mesure {{{nomorigine}}} Pays …   Wikipédia en Français

  • Histoire & Mesure — Pays  France Langue Français Périodicité 2 numéros doubles par an Genre revue scientifique Diffusion …   Wikipédia en Français

  • PRÉHISTOIRE - Méthodologie — Nous entendons le terme préhistoire dans son acception la plus stricte: depuis l’origine de l’homme jusqu’à la veille des «révolutions néolithiques». Nous traiterons des méthodes d’étude des peuples chasseurs cueilleurs, des prédateurs… …   Encyclopédie Universelle

  • PHYSIQUE - Les moyens de l’expérimentation — L’observation des phénomènes physiques et de leur modification sous l’action de facteurs appropriés est rendue quantitative grâce à la définition d’une grandeur caractéristique du phénomène étudié et au choix pour celle ci d’une valeur de… …   Encyclopédie Universelle

  • Variable régionalisée — La VR comme phénomène physique : topographie de la ville de Binche …   Wikipédia en Français

  • Verite et Methode — Vérité et Méthode Vérité et Méthode (Wahrheit und Methode) est une œuvre philosophique de Hans Georg Gadamer. Sommaire 1 Introduction 2 Première partie : Dégagement de la question de la vérité, l’expérience de l’art …   Wikipédia en Français

  • Vérité et Méthode (1960) — Vérité et Méthode Vérité et Méthode (Wahrheit und Methode) est une œuvre philosophique de Hans Georg Gadamer. Sommaire 1 Introduction 2 Première partie : Dégagement de la question de la vérité, l’expérience de l’art …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”